La mayoría de las directrices describen principios y valores éticos de forma genérica, señalan
La mayoría de las directrices mundiales sobre el uso ético que debe regir la Inteligencia Artificial atienden adecuadamente valores como la privacidad o la responsabilidad, pero no otros como la veracidad, la propiedad intelectual o los derechos de la infancia.
A esa conclusión ha llegado un equipo de investigadores de Brasil, que han realizado una revisión y un análisis de las directrices mundiales para el uso de la Inteligencia Artificial y que hoy publican las conclusiones de su estudio en la revista Patterns del grupo Cell.
Los investigadores han concluido que la mayoría de las directrices describen principios y valores éticos de forma genérica, pero sin proponer métodos prácticos para aplicarlos y sin impulsar una regulación jurídicamente vinculante.
A partir de ahí, el investigador James William Santos, de la Pontificia Universidad Católica de Río Grande del Sur (Brasil), ha corroborado en establecer unas directrices éticas “claras” y unas estructuras de gobernanza para el despliegue de la IA en todo el mundo debe ser el primer paso para promover la confianza, mitigar sus riesgos y para garantizar que sus beneficios se distribuyan de una forma equitativa.
El autor principal del trabajo, el profesor Nicholas Kluge Corrêa, de la Pontificia Universidad Católica de Rio Grande do Sul y la Universidad de Bonn, ha observado que los trabajos anteriores sobre la misma materia se centraban predominantemente en documentos norteamericanos y europeos, lo que impulsó a los investigadores a incidir en la perspectiva de regiones como Asia, América Latina y África.
Hicieron una revisión de directrices políticas y éticas sobre la IA que se habían publicado entre 2014 y 2022 e identificaron 200 documentos relacionados con la ética y la gobernanza de la IA procedentes de 37 países escritos o traducidos a cinco idiomas (inglés, portugués, francés, alemán y español) y que incluían recomendaciones, guías prácticas, marcos políticos o códigos de conducta.
Descubrieron que los principios más comunes en esos textos son la transparencia, la seguridad, la justicia, la privacidad o la responsabilidad, y los menos comunes son los derechos laborales, la veracidad, la propiedad intelectual y los derechos de los niños y los adolescentes.
Y que la mayoría de las directrices analizadas eran “normativas” -describían valores éticos que debían tenerse en cuenta durante el desarrollo y uso de la IA-, pero sólo el 2 por ciento recomendaba métodos prácticos para aplicar la ética de la IA y sólo el 4,5 por ciento proponía formas jurídicamente vinculantes de regulación de la Inteligencia Artificial.
Los investigadores también identificaron una disparidad de género en cuanto a la autoría, y aunque en el 66 por ciento de los documentos no contenían información sobre la autoría, entre los autores del resto de textos había más nombres masculinos que femeninos (549 frente a 281).
Geográficamente, la mayoría de las directrices procedían de países de Europa Occidental y Norteamérica, y menos del 4,5 por ciento eran originarios de Sudamérica, África y Oceanía.
Según han plasmado los investigadores en la misma publicación, algunos de esos desequilibrios se pueden deber a limitaciones lingüísticas y de acceso público, pero también que muchas partes del mundo están infrarrepresentadas en el discurso global sobre la ética de la Inteligencia artificial.
Y en ese sentido, los investigadores han subrayado la importancia de incorporar más voces y más regiones al debate sobre la aplicación ética de la Inteligencia Artificial, y de tender un puente entre los principios abstractos de la ética y el desarrollo práctico de sistemas y de aplicaciones basadas en la IA.